home *** CD-ROM | disk | FTP | other *** search
/ Collection of Internet / Collection of Internet.iso / infosrvr / dev / www_talk.930 / 000534_dsr@hplb.hpl.hp.com _Mon Jan 11 11:49:46 1993.msg < prev    next >
Internet Message Format  |  1994-01-24  |  7KB

  1. Return-Path: <dsr@hplb.hpl.hp.com>
  2. Received: from dxmint.cern.ch by  nxoc01.cern.ch  (NeXT-1.0 (From Sendmail 5.52)/NeXT-2.0)
  3.     id AA13758; Mon, 11 Jan 93 11:49:46 MET
  4. Received: by dxmint.cern.ch (5.65/DEC-Ultrix/4.3)
  5.     id AA21299; Mon, 11 Jan 1993 12:04:47 +0100
  6. Received: from dragget.hpl.hp.com by hplb.hpl.hp.com; Mon, 11 Jan 93 11:01:29 GMT
  7. Received: by manuel.hpl.hp.com
  8.     (16.6/15.6+ISC) id AA23480; Mon, 11 Jan 93 11:05:51 GMT
  9. From: Dave_Raggett <dsr@hplb.hpl.hp.com>
  10. Message-Id: <9301111105.AA23480@manuel.hpl.hp.com>
  11. Subject: Re Re Customer pull on HTTP2
  12. To: www-talk@nxoc01.cern.ch
  13. Date: Mon, 11 Jan 93 11:05:48 GMT
  14. Cc: dsr@hplb.hpl.hp.com
  15. Mailer: Elm [revision: 66.25]
  16.  
  17. Kevin Hoadley says in:
  18.  
  19. >> Caching
  20. >>-------
  21. >>
  22. >> It will be desirable to avoid overloading servers with popular documents by
  23. >> supporting a caching scheme at local servers (or even at browsers?).
  24.  
  25. > This as well as caching, replication would be nice. But this is only
  26. > practical if resource identifiers do not contain location information
  27. > (otherwise replication is only possible by making all the peer servers to
  28. > appear to be one machine, as in the DNS CNAME suggestion I made some time
  29. > ago). But if resource identifiers do not contain host information then you
  30. > need an external means of determining how to reach the resource.
  31. > This is analagous to routing protocols (an address is not a route ...).
  32.  
  33. > Such a system is probably over ambitious for now.
  34.  
  35. I agree, but it is important to keep an eye of where things are going.
  36. The ability to replicate documents in this way will depend on name servers
  37. e.g. X.500. In the meantime is this necessary? At first, a simple scheme is
  38. to send all remote requests via a fast local server. This server checks if
  39. this Udi is in its cache, and if not forwards the request to the machine
  40. named in the Udi itself. You can extend this to take advantage of several
  41. caches, and the work done by ANSA (Advanced Networked Systems Architecture)
  42. on trading may be apropriate.
  43.  
  44. ... talking about when to purge the cache
  45.  
  46. > I think this is silly. I haven't changed a document for six months,
  47. > therefore it is safe to say that it won't be changed for the next six
  48. > months ...
  49.  
  50. Yes, perhaps not one of my best ideas! I think we need some position in
  51. between caching docs only for several minutes, and the full replication
  52. mechanism used with network news and nntp.
  53.  
  54. One approach is for the server to periodically refresh cache contents. (This
  55. is what Lotus Notes does). You set it up to refresh docs at night, or perhaps
  56. on a trickle basis in the background. The problem is knowing what the
  57. appropriate interval is for each document. The "Expiry:" field or an
  58. equivalent "KeepFor:" (time to live) field when present gives an explicit
  59. suggestion. My "silly" suggestion was a rule of thumb aimed at allowing the
  60. sever to "learn" that some docs don't change much, and so can be refreshed at
  61. longer intervals.
  62.  
  63. Another complimentary approach is to provide a machanism whereby a server
  64. owning a document informs a list of client servers when it determines that a
  65. given document has changed. This is critical for a successful room booking
  66. application. For this to work, the protocol needs to include the requests:
  67.  
  68.     NOTIFY hplose.hpl.hp.com:8001
  69.     ADD Udi
  70.     RETRY   1000 10
  71.  
  72. This is used to inform a server (named in the Udi) that another server
  73. (IP address: hplose.hpl.hp.com, port 8001) wishes to be informed when this
  74. document is changed or deleted. The RETRY parameter is optional and used to
  75. determine the notification retry interval in seconds, followed by how many
  76. times to try.
  77.  
  78.     NOTIFY hplose.hpl.hp.com:8001
  79.     REMOVE Udi
  80.  
  81. The reverse operation removing a server from a notification list
  82.  
  83.     CHANGED Udi
  84.     <Doc header>
  85.     <Doc body>
  86.  
  87. The message sent to servers on the notification list when the specified doc
  88. has changed. If the doc has been deleted then the body should be empty.
  89.  
  90. In the case where it is currently impossible to establish a connection with a
  91. server on the notification list, the notification should be periodically
  92. retried until a suitable timeout period has expired. See earlier RETRY field.
  93.  
  94. You don't need to complicate the http server loop to implement this
  95. mechanism as notifications can be handled by a separate program.
  96.  
  97. ... talking about problems with comparing date/time info
  98.  
  99. > This also depends on hosts agreeing on the date. To quote
  100. > RFC1128, talking about a 1988 survey of the time/date on
  101. > Internet hosts, "... a few had errors as much as two years"
  102.  
  103. Wow! I had no idea that this was the case. I had hoped that all machines
  104. would have support for date/time conversion for all known time zones, so
  105. that by including the time zone as part of the format, there would be no
  106. problem.
  107.  
  108. >> I think that we need to provide an operation in which the server returns a
  109. >> document only if it is later that a date/time supplied with  the request. 
  110.  
  111. > This would be useful as part of a replication system, as long as both ends
  112. > exchanged timestamps initially so that the dates can be synchronised.
  113.  
  114. In this case we need to define how servers should process date/time info,
  115. particularly when a mismatch is detected.
  116.  
  117. ... talking about copyright protection
  118.  
  119. > It may be stating the obvious, but once you allow a user to access you
  120. > data such that they can save it, there is no technical way you can prevent
  121. > them from publically redistributing your data. This is a social/legal
  122. > problem, not a technical one. Accepting that nothing can be done to stop
  123. > deliberate abuse of licensed information, there is a need to prevent
  124. > accidental abuse.
  125.  
  126. There is no *techical way* to stop me driving my car at a passerby and
  127. killing him! The answer is that it is illegal to breach the copyright law.
  128. In HP we have notices next to each photocopier, reminding us of what the law
  129. allows us to do. The same will apply to networked access. Publishers are
  130. concerned that they receive fair payment for their information, and the
  131. critical issue is to ensure that all processes can pass an audit to show
  132. their compliance.
  133.  
  134. My idea is that its ok to cache copyrighted docs so long as you put in an
  135. effective mechanism for logging and handling payments. This mechanism must be
  136. able to pass a suitable audit procedure. I believe that the scheme I described
  137. would do this.
  138.  
  139. > Probably the simplest way to do this is to mark the
  140. > document as one which should NOT be cached.
  141.  
  142. You need to separate the issue of copyright protection from ensuring secure
  143. access to restricted information. I proposed the "Distribution:" header for
  144. this purpose.
  145.  
  146. Many thanks for your comments,
  147.  
  148. Best wishes,
  149.  
  150. Dave Raggett, dsr@hplb.hpl.hp.com